Czym jest zjawisko „chowu wsobnego AI”, które zagraża sztucznej inteligencji?

Zarezerwowane dla subskrybentów
DESZYFROWANIE – Dyskretne, ale niepokojące zjawisko podobno osłabia sztuczną inteligencję. Przyczyną jest wewnętrzny mechanizm, który z czasem może ją zubożyć i zmniejszyć jej niezawodność.
Od kilku miesięcy internautów intryguje dziwny objaw: obrazy generowane przez sztuczną inteligencję nabierają żółtawego odcienia. Niezależnie od tego, czy chodzi o memy, portrety, czy filmy, ta wizualna stronniczość stała się tak powszechna, że w sieci krążą liczne poradniki dotyczące „odbarwiania” tych obrazów. Dla specjalistów nie jest to kwestia estetyki. Ta standaryzacja może być oznaką głębszego kryzysu zagrażającego sztucznej inteligencji. Przyczyna? Forma cyfrowego „chowu wsobnego” , który występuje, gdy modele sztucznej inteligencji trenują na danych… już wygenerowanych przez inne sztuczne inteligencje. „Trenowanie przyszłych generacji modeli na poprzednich generacjach kończy się załamaniem modelu” – wyjaśnia Alain Goudey, zastępca dyrektora generalnego ds. cyfrowych w Neoma Business School.
Ten artykuł jest zarezerwowany dla subskrybentów. Pozostało Ci 89% do odkrycia.
lefigaro